Quick guides
Español
Índice
Conectarse al clúster ↩
Las cuentas son de uso personal e intransferible. Si el proyecto requiere el acceso de otra persona a la máquina, el responsable del proyecto será el encargado de hacer este tipo de peticiones.
Nodos de inicio de sesión (logins) ↩
Clúster | |
---|---|
MareNostrum 5 (GP) | glogin1.bsc.es glogin2.bsc.es glogin4.bsc.es (solo BSC) |
MareNostrum 5 (ACC) | alogin1.bsc.es alogin2.bsc.es alogin4.bsc.es (solo BSC) |
CTE-AMD | amdlogin1.bsc.es |
Huawei | hualogin1.bsc.es |
Nord3v2 | nord1.bsc.es nord2.bsc.es nord3.bsc.es nord4.bsc.es |
Todas las conexiones deberán hacerse por SSH (Secure SHell), por ejemplo:
mylaptop$> ssh {username}@glogin1.bsc.es
Cambiar la contraseña ↩
Por seguridad, resulta imprescindible que se cambie la primera contraseña.
Para cambiar la contraseña, hay que entrar en el login1 de la máquina Transfer:
mylaptop$> ssh {username}@transfer1.bsc.es
con el mismo username y password que en el clúster. Entonces, se tiene que ejecutar el comando 'passwd'.
La nueva contraseña será efectiva después de aproximadamente 10 minutos.
Acceso desde/hacia el exterior ↩
Los logins de acceso son los únicos nodos accesibles desde el exterior, pero por razones de seguridad no disponen de conexión hacia el ámbito exterior.
Para transferir archivos desde/hacia el exterior debe ejecutarse el comando siempre desde la máquina externa:
Ejemplo de copia de ficheros/directorios desde MN5 hacia una máquina externa:
mylaptop$> scp -r {username}@transfer1.bsc.es:"MN5_SOURCE_dir" "mylaptop_DEST_dir"
Ejemplo de copia de ficheros/directorios desde una máquina externa hacia MN5:
mylaptop$> scp -r "mylaptop_SOURCE_dir" {username}@transfer1.bsc.es:"MN5_DEST_dir"
Directorios y sistemas de ficheros ↩
Existen varias áreas de espacio en disco. Cada área puede tener límites de tamaño y políticas de uso específicos.
Directorios básicos bajo GPFS ↩
GPFS (General Parallel File System) es un sistema de ficheros distribuido en red al que se puede acceder desde cualquier nodo del clúster y desde la máquina de transferencia de datos (transfer1.bsc.es).
Los directorios y sistemas de ficheros de GPFS disponibles son:
/apps
: Donde reside una gran variedad de aplicaciones y librerías ya instaladas para uso común. Los usuarios no pueden escribir en él./gpfs/home
: Directorio personal con una cuota de espacio individual y capacidad más bien reducida. Es el área de trabajo por defecto tras el inicio de sesión, donde se pueden guardar códigos fuente, scripts y otros datos personales. No es apropiado para lanzar jobs; para tal fin, se recomienda usar /gpfs/projects o /gpfs/scratch./gpfs/projects
: Espacio destinado a almacenar datos que se deben compartir entre usuarios del mismo grupo o proyecto. La cuota de espacio es compartida por todos los miembros del grupo./gpfs/scratch
: Similar a /gpfs/prohets, pero si copia de seguridad. Está pensado para almacenar archivos temporales de los trabajos (jobs) durante su ejecución, por ejemplo. Este espacio también es compartido por todos los miembros de un mismo grupo.
Límites/cuotas de espacio de almacenamiento ↩
Se pueden consultar los límites de espacio en disco, así como las cuotas de uso actual para cada sistema de ficheros:
$> bsc_quota
Ejecutar trabajos ↩
Lanzar a colas ↩
Para enviar trabajos a colas, se deben usar las directivas de Slurm, por ejemplo:
Enviar un trabajo:
$> sbatch {job_script}
Mostrar todos los trabajos enviados:
$> squeue
Cancelar la ejecución de un trabajo:
$> scancel {job_id}
Límites de colas ↩
Los límites de las colas (QoS) asignadas al proyecto los puede consultar mediante el comando:
$> bsc_queues
Ejecutar en interactivo ↩
Sesión interactiva
La asignación de una sesión interactiva debe realizarse a través de Slurm, por ejemplo:
Iniciar sesión interactiva en un nodo de cómputo:
$> salloc -A {group} -q {queue} -n 1 -c 4 # ejemplo para solicitar 1 tarea (task), 4 CPU (cores) por tarea
Iniciar sesión interactiva reservando un nodo de cómputo en exclusiva:
$> salloc -A {group} -q {queue} --exclusive
Iniciar sesión interactiva en un nodo de cómputo usando GPUs:
$> salloc -A {group} -q {queue} -c 80 --gres=gpu:2 # ejemplo para solicitar 80 CPU (cores) + 2 GPU